iT邦幫忙

2023 iThome 鐵人賽

DAY 12
0
AI & Data

深度學習-TensorFlow系列 第 12

DAY12-循環神經網路RNN(上)

  • 分享至 

  • xImage
  •  

循環神經網路 (Recurrent neural network , RNN)
是神經網路的一種。但單純的RNN因為無法處理隨著遞歸、權重指數級爆炸或梯度消失的問題,難以捕捉長期時間關聯,所以透過結合LSTM(Long Short-Term Memory , 長短期記憶)可以更好解決這個問題。手寫辨識是最早成功利用RNN的研究成果。

RNN同時是一類特殊的神經網路,創建的目的是處理順序輸入、語音、文字和時間等序列資料。RNN不同於前饋網路將資料作為固定長度的向量進行處理,而是透過將資料作為向量序列來進行處理,且每個向量的處理取決於前一階段的隱藏階段。

雙向循環神經網路 (Bidirectional recurrent neural networks , BRNN)
與傳統循環神經網路之前的區別是有兩個不同的循環隱藏層,其中一個向前處理輸入序列,另一個向後處理輸入序列(就是將兩個相反的隱藏層連接到同一個輸出);除此之外準確性也提高許多。

常見應用:

  1. 情緒分析
  2. 命名實體辨別
  3. 詞性標註
  4. 機器翻譯
  5. 語音辨識

https://ithelp.ithome.com.tw/upload/images/20230927/20162982jp9At2krrb.png
(圖片擷取至網路)

雙向循環神經網路的工作原理
1. 輸入序列 : 資料點序列 (將每個資料表示為具有相同維度的向量) 輸入到BRNN中。
2. 雙重處理 : 前向與後向都能用來處理資料。
3. 計算隱藏狀態 : 使用輸入和先前隱藏狀態的加權和的非線性激活函數來計算每個步驟的隱藏階段。
4. 確定輸出 : 非線性激活函數用於根據隱藏狀態和多個輸出權重的加權和來確定每一步的輸出。
5. 訓練 : 透過監督學習方法來進行訓練。


上一篇
DAY11-初學者的TensorFlow 2.0教程(運用colab訓練模型)
下一篇
DAY13-循環神經網路RNN(中)
系列文
深度學習-TensorFlow30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言